(58)【調査した分野】(Int.Cl.,DB名)
前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの前記距離を決定することが、移動からの構造復元を用いることを含み、前記複数の画像が、前記複数の画像のうちの別の画像とは異なる時間に捕捉された少なくとも1つの画像を含む、請求項1に記載のナビゲーションシステム。
前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの前記距離を決定することが、速度計又は1つ又は複数の位置センサの少なくとも1つから得られた情報を使用することを更に含む、請求項2に記載のナビゲーションシステム。
前記視差マップを使用して前記距離を決定することが、期待値のある範囲内に入る視差を有する前記視差マップの一部を選択することを更に含み、前記期待値が目標距離と相関する、請求項4に記載のナビゲーションシステム。
前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの前記距離を決定することが、移動からの構造復元を用いることを含み、前記複数の画像が、前記複数の画像のうちの別の画像とは異なる時間に捕捉された少なくとも1つの画像を含む、請求項7に記載の車両。
前記視差マップを使用して前記距離を決定することが、期待値のある範囲内に入る視差を有する前記視差マップの一部を選択することを更に含み、前記期待値が目標距離と相関する、請求項10に記載の車両。
ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、前記ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定することと、
前記現在位置と異なる目的地を決定することと、
前記ナビゲーションシステムのユーザが、環境内に位置し、かつ前記現在位置から前記目的地へナビゲートしている間に、1つ又は複数の画像取得装置から、前記環境を表す複数の画像を取得することと、
前記ユーザが前記現在位置から前記目的地へナビゲートしている間に、前記複数の画像を分析し、前記画像取得装置の少なくとも1つの視野内に現れる少なくとも1つの目標車両を識別することと、
前記複数の画像に基づいて、前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの距離を決定することと、
前記複数の画像に基づいて、前記現在位置から前記目的地へナビゲートするための1つ又は複数の指示を決定し、前記1つ又は複数の指示が、前記少なくとも1つの目標車両への少なくとも1つの言及を含み、前記少なくとも1つの目標車両への前記言及が、前記1つ又は複数の画像取得装置の前記少なくとも1つから前記少なくとも1つの目標車両への前記距離に少なくとも基づくことと、
を含む、車両をナビゲートする方法。
前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの前記距離を決定することが、移動からの構造復元を用いることを含み、前記複数の画像が、別の画像とは異なる時間に捕捉された少なくとも1つの画像を含む、請求項13に記載の方法。
前記1つ又は複数の画像取得装置の少なくとも1つから前記少なくとも1つの目標車両までの前記距離を決定することが、速度計又は前記1つ又は複数の位置センサの少なくとも1つから得られた情報を使用することを更に含む、請求項14に記載の方法。
【発明を実施するための形態】
【0012】
詳細な説明
以下の詳細な説明は、添付の図面を参照する。図面及び以下の説明において、可能な限り、同じ参照番号が、同じ又は類似の部分を指すために用いられる。幾つかの実例的な実施形態が、本明細書で説明されるが、修正、適応及び他の実装形態が可能である。例えば、置き換え、追加又は修正が、図面に示されているコンポーネントに対してなされても良く、本明細書で説明される実例的な方法は、開示される方法に対してステップを置き換え、再整理し、削除し又は追加することによって、修正されても良い。従って、以下の詳細な説明は、開示される実施形態を限定するものではない。代わりに、適切な範囲は、添付の請求項によって定義される。
【0013】
図1は、例示的な開示される実施形態と一致するナビゲーションシステム100のブロック図表示を提供する。ナビゲーションシステム100は、特定の実装形態の要件に依存する様々なコンポーネントを含んでも良い。幾つかの実施形態において、ナビゲーションシステム100は、処理ユニット110、画像取得ユニット120、位置センサ130、1つ又は複数のメモリユニット140、150、地図データ・データベース160、及びユーザインターフェース170を含んでも良い。処理ユニット110は、1つ又は複数の処理装置を含んでも良い。幾つかの実施形態において、処理ユニット110は、アプリケーションプロセッサ180、画像プロセッサ190、又は任意の他の適切な処理装置を含んでも良い。同様に、画像取得ユニット120は、特定のアプリケーションの要件に依存して、任意の数の画像取得装置及びコンポーネントを含んでも良い。幾つかの実施形態において、画像取得ユニット120は、カメラ122、カメラ124及びカメラ126などの1つ又は複数のカメラを含んでも良い。
【0014】
アプリケーションプロセッサ180及び画像プロセッサ190の両方とも、様々なタイプの処理装置を含んでも良い。例えば、アプリケーションプロセッサ180及び画像プロセッサ190のどちらか又は両方は、マイクロプロセッサ、プリプロセッサ(画像プリプロセッサなど)、グラフィックスプロセッサ、中央処理ユニット(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又はアプリケーションを実行することに、且つ画像処理及び分析に適している任意の他のタイプの装置を含んでも良い。幾つかの実施形態において、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、任意のタイプのシングル又はマルチコアプロセッサ、モバイル装置マイクロコントローラ、中央処理ユニット等を含んでも良い。例えば、Intel(登録商標)、AMD(登録商標)などの製造業者から入手可能なプロセッサを含む様々な処理装置が、用いられても良く、且つ様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)等)を含んでも良い。
【0015】
幾つかの実施形態において、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、Mobileye(登録商標)から入手可能なプロセッサチップのEyeQシリーズのいずれかを含んでも良い。これらのプロセッサ設計は、それぞれ、ローカルメモリ及び指示セットを備えた複数の処理ユニットを含む。かかるプロセッサは、複数の画像センサから画像データを受信するためのビデオ入力部を含んでも良く、且つまたビデオ出力機能を含んでも良い。一例において、EyeQ2(登録商標)は、332Mhzで動作する90nm−マイクロメートル技術を用いる。EyeQ2(登録商標)アーキテクチャは、2つの浮動小数点ハイパースレッド32ビットRISC CPU(MIPS32(登録商標)34K(登録商標)コア)、5つのビジョンコンピューティングエンジン(VCE)、3つのベクトルマイクロコードプロセッサ(VMP(登録商標))、Denali64ビットモバイルDDRコントローラ、128ビット内部Sonics Interconnect、デュアル16ビットビデオ入力及び18ビットビデオ出力コントローラ、16チャネルDMA、及び幾つかの周辺装置からなる。MIPS34K CPUは、5つのVCE、3つのVMP
TM及びDMA、第2のMIPS34K CPU、並びにマルチチャンネルDMAと同様に、他の周辺装置を管理する。5つのVCE、3つのVMP(登録商標)、及びMIPS34K CPUは、多機能バンドルアプリケーションによって要求される集中的な視覚計算を実行することができる。
【0016】
図1は、処理ユニット110に含まれる2つの別個の処理装置を示すが、より多数又は少数の処理装置が用いられても良い。例えば、幾つかの実施形態において、アプリケーションプロセッサ180及び画像プロセッサ190のタスクを達成するために、単一の処理装置が用いられても良い。他の実施形態において、これらのタスクは、2つを超える処理装置によって実行されても良い。
【0017】
各メモリ140、150は、プロセッサ(例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190)によって実行された場合に、ナビゲーションシステム100の様々な態様の動作を制御し得るソフトウェア命令を含んでも良い。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェアを含んでも良い。メモリユニットは、ランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光記憶装置、テープ記憶装置、着脱可能記憶装置、及び/又は任意の他のタイプの記憶装置を含んでも良い。幾つかの実施形態において、メモリユニット140、150は、アプリケーションプロセッサ180及び/又は画像プロセッサ190とは別個であっても良い。他の実施形態において、これらのメモリユニットは、アプリケーションプロセッサ180及び/又は画像プロセッサ190に統合されても良い。
【0018】
位置センサ130は、ナビゲーションシステム100の少なくとも1つのコンポーネントに関連する位置を決定するのに適した任意のタイプの装置を含んでも良い。幾つかの実施形態において、位置センサ130は、GPS受信機を含んでも良い。かかる受信機は、全地球測位システム衛星によってブロードキャストされた信号を処理することによって、ユーザの位置及び速度を決定することができる。位置センサ130からの位置情報は、アプリケーションプロセッサ180及び/又は画像プロセッサ190にとって利用可能にされても良い。
【0019】
ユーザインターフェース170は、ナビゲーションシステム100の1人又は複数のユーザに情報を提供するために、又はそれらのユーザからの入力を受信するために適した任意の装置を含んでも良い。幾つかの実施形態において、ユーザインターフェース170は、例えば、タッチスクリーン、マイクロホン、キーボード、ポインタ装置、トラックホイール、カメラ、ノブ、ボタン等を含むユーザ入力装置を含んでも良い。かかる入力装置を用いて、ユーザは、指示又は情報をタイプすること、音声コマンドを提供すること、ボタン、ポインタ若しくは視標追跡機能を用いてスクリーン上のメニューオプションを選択することによって、又はナビゲーションシステム100に情報を伝達するための任意の他の適切な技術を介して、ナビゲーションシステム100に情報入力又はコマンドを提供することができ得る。
【0020】
ユーザインターフェース170は、例えば、ユーザに情報を提供するか又はユーザから情報を受信するように、且つ例えばアプリケーションプロセッサ180による使用のためにその情報を処理するように構成された1つ又は複数の処理装置を装備しても良い。幾つかの実施形態において、かかる処理装置は、眼球運動を認識し追跡すること、音声コマンドを受信し解釈すること、タッチスクリーン上でなされたタッチ及び/又はジェスチャを認識し解釈すること、キーボード入力又はメニュー選択に応答すること等のための命令を実行しても良い。幾つかの実施形態において、ユーザインターフェース170は、処理情報をユーザに提供するためにディスプレイ、スピーカ、触覚装置、及び/又は任意の他の装置を含んでも良い。
【0021】
地図データベース160は、ナビゲーションシステム100にとって有用な地図データを記憶するために任意のタイプのデータベースを含んでも良い。幾つかの実施形態において、地図データベース160は、道路、水域の特徴、地理的特徴、企業、興味のある地点、レストラン、ガソリンスタンドなどを含む様々な細目の位置に関するデータを基準座標系に含んでも良い。地図データベース160は、かかる細目の位置だけでなく、例えば記憶された特徴のいずれかに関連する名称を含む、これらの細目に関係する説明もまた記憶しても良い。幾つかの実施形態において、地図データベース160は、ナビゲーションシステム100の他のコンポーネントと物理的に一緒に位置しても良い。代替又は追加として、地図データベース160又はその一部は、ナビゲーションシステム100の他のコンポーネント(例えば処理ユニット110)に対して遠隔に位置しても良い。かかる実施形態において、地図データベース160からの情報は、有線又は無線データ接続を通じて(例えば、セルラーネットワーク及び/又はインターネット等を通じて)ネットワークにダウンロードされても良い。
【0022】
カメラ122、124及び126は、それぞれ、環境からの少なくとも1つの画像を捕捉するのに適した任意のタイプの装置を含んでも良い。更に、任意の数のカメラが、画像プロセッサへの入力用の画像を取得するために用いられても良い。幾つかの実施形態は、単一のカメラだけを含んでも良く、一方で他の実施形態は、2台のカメラ、3台のカメラ、又は4台以上のカメラさえ含んでも良い。
【0023】
ナビゲーションシステム100又はその様々なコンポーネントは、様々な異なるプラットフォームに組み込まれても良い。幾つかの実施形態において、ナビゲーションシステム100は、
図2に示されているように、車両200に含まれても良い。例えば、車両200は、
図1に関連して上記で説明されたように、ナビゲーションシステム100の処理ユニット110及び他のコンポーネントのいずれかを装備しても良い。幾つかの実施形態において、車両200は、単一のカメラだけを装備しても良いが、他の実施形態において、複数のカメラが用いられても良い。例えば、
図2に示されているように、車両200のカメラ122、124のどちらかは、ADAS(先進運転支援システム)カメラセットの一部であっても良い。
【0024】
画像取得ユニット120の一部として車両200に含まれるカメラは、任意の適切な位置に配置しても良い。幾つかの実施形態において、
図2及び
図3に示されているように、カメラ122は、バックミラーの近くに位置しても良い。この位置は、車両200の運転手の視線と類似の視線を提供し得、それは、何が運転手に見え、何が見えないかを決定する際に助けとなり得る。カメラ122は、バックミラーの近くの任意の位置に配置しても良いが、しかしミラーの運転手側にカメラ122を配置することは、運転手の視野及び/又は視線を表す画像を得る際に更に助けとなり得る。
【0025】
画像取得ユニット120のカメラ用の他の位置もまた用いられても良い。例えば、カメラ124は、車両200のバンパー上又はその中に位置しても良い。かかる位置は、広視野を有するカメラ用に特に適切になり得る。バンパーに位置するカメラの視線は、運転手の視線と異なる可能性があり、従って、バンパーのカメラ及び運転手は、必ずしも同じ対象物を見るとは限らない可能性がある。
【0026】
カメラに加えて、車両200は、ナビゲーションシステム100の様々な他のコンポーネントを含んでも良い。例えば、処理ユニット110は、車両のエンジン制御ユニット(ECU)と統合されて又はそれと別個に車両200に含まれても良い。車両200はまた、GPS受信機などの位置センサ130を装備されても良く、且つまた地図データベース160並びにメモリユニット140及び150を含んでも良い。
【0027】
車両200はまた、車両200の運転手又は乗客と対話するためのユーザインターフェース170を含んでも良い。例えば、
図3に示されているように、車両用途におけるユーザインターフェース170は、タッチスクリーン320、ノブ330、ボタン340、及びマイクロホン350を含んでも良い。幾つかの実施形態において、マイクロホン350は、カメラ122と同様に、バックミラー310に隣接して配置されても良い。車両用途において、ユーザインターフェース170はまた、1つ又は複数のスピーカ(例えば、車両オーディオシステムのスピーカ)を含んでも良い。
【0028】
ナビゲーションシステム100の1つ又は複数のコンポーネントがまた、他のプラットフォームに含まれても良い。例えば、
図4A及び4Bに示されているように、ナビゲーションシステム100のコンポーネントはまた、モバイル装置400に含まれても良く、モバイル装置400は、スマートフォン、タブレット等を含んでも良い。かかる実施形態において、アプリケーションプロセッサ180は、モバイル装置のアプリケーションプロセッサに対応しても良く、画像プロセッサ190は、モバイル装置のアプリケーションプロセッサと一緒に統合されるか、又はそれと別個に設けられても良い。車両用途と同様に、モバイル装置400は、メモリユニット140、150、位置センサ130(例えばGPSユニット)、及び地図データベース160を含んでも良く、それらは、モバイル装置400に含まれても良く、又は無線データ接続を介してアクセス可能であっても良い。
【0029】
モバイル装置400はまた、ユーザインターフェース170の1つ又は複数のコンポーネントを含んでも良い。例えば、幾つかの実施形態において、モバイル装置400は、タッチスクリーン410、スピーカ430、及び/又はマイクロホン420を含んでも良い。モバイル装置400はまた、
図4Bに示されているように、カメラ122などの1つ又は複数のカメラを含んでも良い。モバイル装置400に位置するカメラに加えて、モバイル装置400に関連する画像取得ユニット120もまた、モバイル装置400から離れて位置するカメラを含んでも良い。例えば、幾つかの実施形態において、モバイル装置400は、別の装置又はプラットフォームに関連する1つ又は複数のカメラ(例えば、車両200、又はモバイル装置400が通信し得る任意の他のプラットフォームに含まれるカメラ)から画像データを受信するように構成されても良い。かかる実施形態において、モバイル装置400は、有線又は無線データ接続を介して、遠隔に位置するカメラから画像データを受信しても良い。例えば、幾つかの実施形態において、モバイル装置400は、(例えば、ダッシュボード、フロントガラス等に配置された着脱可能な取り付け台を介して)車両200に装着されても良い。モバイル装置400は、車両400に含まれるコンポーネントと通信しても良い。幾つかの実施形態において、モバイル装置400は、(Bluetooth接続、又は他の無線若しくは有線接続を介して)画像情報、ナビゲーション指示等を受信するために、車両400上の1つ又は複数の処理装置と通信しても良い。次に、モバイル装置400は、未修正のナビゲーション指示の形で、情報をユーザに伝達しても良く、又はモバイル装置400は、車両200から受信された情報に基づいて、若しくはそれ自体の搭載システム(例えばGPS受信機等)からの読み取り値に基づいて作成される新しい若しくは強化されたナビゲーション指示を作成しても良い。このように、モバイル装置400は、
図3に示されているように、車両ベースのユーザインターフェース170によって提供される情報を強化しても良く、又は車両ベースのユーザインターフェースとして若しくは車両ベースのインターフェースの代用として働いても良い。
【0030】
図5A及び5Bに示されているように、ナビゲーションシステム100のコンポーネントはまた、ウェアラブル装置500に含まれても良く、ウェアラブル装置500は、リストユニット、眼鏡ユニット、ヘッドマウント型ユニット等を含んでも良い。かかる実施形態において、アプリケーションプロセッサ180は、ウェアラブル装置のアプリケーションプロセッサに対応しても良く、画像プロセッサ190は、ウェアラブル装置のアプリケーションプロセッサと一緒に統合されるか、又はそれと別個に設けられても良い。車両用途及びモバイル装置プラットフォームと同様に、ウェアラブル装置500は、メモリユニット140、150、位置センサ130(例えばGPSユニット)、及び地図データベース160を含んでも良く、それらは、ウェアラブル装置500に含まれても良く、又は無線データ接続を介してアクセス可能であっても良い。
【0031】
ウェアラブル装置500はまた、ユーザインターフェース170の1つ又は複数のコンポーネントを含んでも良い。例えば、幾つかの実施形態において、ウェアラブル装置500は、ディスプレイ510、スピーカ530、及び/又はマイクロホン520を含んでも良い。ウェアラブル装置500はまた、
図5Bに示されているように、カメラ122などの1つ又は複数のカメラを含んでも良い。ウェアラブル装置500に位置するカメラに加えて、ウェアラブル装置500に関連する画像取得ユニット120がまた、ウェアラブル装置500と別個に位置するカメラを含んでも良い。例えば、幾つかの実施形態において、ウェアラブル装置500は、別の装置又はプラットフォームに関連する1つ又は複数のカメラ(例えば、ウェアラブル装置500が通信し得る車両200又は任意の他のプラットフォームに含まれるカメラ)から画像データを受信するように構成されても良い。かかる実施形態において、ウェアラブル装置500は、有線又は無線データ接続を介して、遠隔に位置するカメラから画像データを受信しても良い。
【0032】
1つを超えるカメラが用いられる実施形態において、カメラ122、124及び126に戻ると(それらのカメラが、車両200、モバイル装置400、ウェアラブル装置500、又は任意の他のプラットフォームに含まれるかどうかにかかわらず)、それらのカメラは、例えば、類似の焦点距離、視野、画像センサ等を含む類似の特徴を有しても良い。他方で、任意の複数のカメラの1つ又は複数は、他のカメラのいずれとも異なって構成されても良い。例えば、幾つかの実施形態において、第1のカメラ(例えばカメラ122)は、第2のカメラ(例えばカメラ124)の焦点距離と異なる焦点距離で構成されても良い。ナビゲーションシステム100が、第3のカメラ(例えばカメラ126)を有する画像取得システム120を含むか又はそれと相互作用する場合に、その第3のカメラは、第1のカメラの焦点距離及び第2のカメラの焦点距離と異なる焦点距離を有しても良い。
【0033】
カメラ122、124、又は126のいずれもまた、特定の用途に適した分解能で構成されても良い。ナビゲーションシステム100が、カメラ122、124、又は126から取得された画像から導き出されたユーザ用の視覚キュー情報で、ナビゲーション指示を強化し得るので、それらのカメラの1つ又は複数は、人間の目に似た特徴を示すように構成されても良い。例えば、幾つかの実施形態において、カメラの1つ又は複数は、色に敏感であっても良い(例えば、人間の目で見つかる円錐体に似た、赤色、緑色及び青色に敏感なRGBカメラ)。更に、カメラの1つ又は複数は、人間の目に似た視力を提供する画素分解能/視野の組み合わせを有しても良い。例えば、幾つかの実施形態において、カメラは、(幾つかのスマートフォン装置に現在含まれるカメラに似た)少なくとも5メガ画素の分解能及び約50度の水平視野を有しても良い。他の実施形態において、ナビゲーションシステム100におけるカメラは、約1.3メガ画素のSXGA分解能、及び30度未満(例えば約23度)の水平視野を有しても良い。ナビゲーションシステム100におけるカメラは、1度当たり少なくとも40水平画素(即ち、画像センサのX次元に沿って延びる行における画素)の比率を提供する分解能及び水平視野を示しても良い。幾つかの実施形態において、その比率は、1度当たり45水平画素を超えるか、1度当たり50水平画素か、又は1度当たり55水平画素を超えても良い。
【0034】
カメラ122、124及び/又は126は、様々な光学素子を含んでも良い。幾つかの実施形態において、1つ又は複数のレンズが、例えば、カメラ用の所望の焦点距離及び視野を提供するために含まれても良い。幾つかの実施形態において、カメラ122、124及び/又は126は、6mmレンズ又は12mmレンズと関連付けられても良い。幾つかの実施形態において、カメラ122、124及び/又は126は、約46度、50度、52度、又はそれを超える視野(FOV)を有する画像を捕捉するように構成されても良い。例えば、カメラ122、124及び/又は126はまた、より狭い視野で構成されても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126は、40度、30度、26度、23度、20度、又はそれ未満のFOVを有しても良い。幾つかの実施形態において、カメラ122、124又は126のいずれも、約180度まで(例えば、約100度〜約150度)の広角FOVを含んでも良い。
【0035】
カメラ122、124及び/又は126は、例えばCCDセンサ又はCMOSセンサを含む任意の適切なタイプの画像センサを含んでも良い。一実施形態において、CMOS画像センサは、ロールシャッタと共に用いられても良く、その結果、行における各画素は、1つずつ読み取られ、行の走査は、全画像フレームが捕捉されるまで、行ごとに行われる。幾つかの実施形態において、行は、フレームに対して上端から底部まで順次的に捕捉されても良い。他の実施形態において、グローバルシャッタが用いられても良い。
【0036】
カメラ122、124及び/又は126は、環境からのユーザに見える(期待される視野範囲内における)画像が取得され得るように、プラットフォーム装置(例えば、車両200、モバイル装置400、ウェアラブル装置500等)に関連して位置しても良い。例えば、
図2及び3に示されているように、車両用途において、カメラ122は、バックミラー310の近くに配置されても良い。幾つかの実施形態において、カメラ122は、地面からの周知の高さ(例えば、地上約1.4m)に配置されても良く、この情報は、カメラ122によって捕捉される画像において相対的大きさを決定するために用いられても良い。
【0037】
カメラ122、124及び/又は126のフレームレート(例えば、カメラが、次の画像フレームに関連する画素データの補足に移る前に、一画像フレームの画素データセットを取得するレート)は、制御可能であり得る。フレームレートは、例えば、カメラ122、124及び/又は126によって取得された画像における捕捉された対象物までの距離を決定する際に利用されても良い。カメラ122、124及び/又は126のいずれかにおけるフレームレートは、任意の他のカメラに関連するフレームレートより高いか、低いか、又はそれと同じであっても良い。
【0038】
更に、カメラ122、124及び/又は126のそれぞれに関連する焦点距離は、各カメラが、プラットフォームシステム(例えば、車両200、モバイル装置400、ウェアラブル装置500等)に対する所望の距離範囲で対象物の画像を取得するように、選択可能(例えば、適切なレンズ等を含むことによって)であっても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126は、数メートル内のクローズアップの対象物の画像を取得しても良い。カメラ122、124及び/又は126はまた、より離れた対象物の(例えば、25m、50m、100m、150m、又はそれより遠い範囲における)画像を取得するように構成されても良い。更に、カメラ122、124及び/又は126の焦点距離は、1つのカメラ(例えばカメラ124)が、(例えば10m内又は20m内の)比較的近い対象物の画像を取得することができ、一方で別のカメラ(例えばカメラ126)が、(例えば、20m、50m、100m、150m等を超える範囲における)より離れた対象物の画像を取得できるように、選択されても良い。カメラ122、124及び/又は126のそれぞれに関連する視野は、それぞれの焦点距離に依存し得る。例えば、焦点距離が増加するにつれて、対応する視野は減少する。
【0039】
動作において、ナビゲーションシステム100は、ナビゲーション指示をユーザに提供しても良い。ナビゲーション指示は、地図データ(例えば、地図データベース160に記憶されたデータ)に関係するか、又はそこから導き出された情報を含んでも良く、且つ画像取得ユニット120によって取得された画像データに関係するか、又はそこから導き出された情報を含んでも良い。
【0040】
ナビゲーション指示を作成するために、処理ユニット110は、ナビゲーションシステム100に関連する少なくとも1つのコンポーネントの現在位置を決定しても良い。例えば、幾つかの実施形態において、アプリケーションプロセッサ180は、位置センサ130にアクセスし、且つ位置を示す出力を検索しても良い。この位置は、車両200、モバイル装置400、ウェアラブル装置500等の位置に対応しても良い。
【0041】
処理ユニットはまた、現在位置と異なる目的地を決定するように構成されても良い。目的地は、ユーザが行きたいと望む位置、第三者がユーザ用に指定する位置、又は現在位置と異なる任意の他の位置に対応しても良い。目的地は、任意の適切な方法によって処理ユニット110に提供されても良い。一実施形態において、ユーザは、ユーザインターフェース170を介して目的地を入力しても良い。例えば、住所、緯度及び経度座標等が、キーボード又はタッチスクリーンをタイプすること、1つ又は複数の音声コマンドを話すこと、ポインタ装置若しくは追跡された眼球運動を用いてメニュー項目を選択すること、又は任意の他の適切なデータ入力技術によって、処理ユニット110に導入されても良い。
【0042】
現在位置及び所望の目的地情報を用いて、従来のナビゲーションシステムは、地図データにアクセスし、ルートを決定し、且つそのルートに沿ってナビゲートするための指示を生成し得る。しかしながら、現在説明されている実施形態は、画像取得ユニット120によって提供される画像に基づいて決定される追加情報を特徴とする指示を含む。
【0043】
例えば、幾つかの実施形態において、処理ユニット110は、ナビゲーションシステム100のユーザの環境を表す複数の画像を1つ又は複数の画像取得装置(例えば、カメラ122、124及び/又は126)から取得するように構成されても良い。これらの複数の画像に基づいて、処理ユニット110は、環境における少なくとも1つの対象物に関連する視覚情報を導き出しても良い。例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、画像取得ユニット120によって提供された複数の画像に現れる1つ又は複数の対象物を分析し、且つ環境における対象物の少なくとも1つの特徴に関係する視覚情報を画像から導き出しても良い。幾つかの実施形態において、対象物は、車両、建物、看板、交通信号、道路の特徴、構造物又は人におけるいずれか少なくとも1つを含んでも良い。画像から導き出され得る視覚情報は、例えば、建物の色、サイズ、又は建築材料と、日除けの色と、認識されたロゴ(例えばMcDonaldの看板、金色のアーチ等)の名称と、路面における建物、道路標識又は印刷されたレタリングからの認識されたテキストと、別の車両の色と、道路に関連する分かれ道、隆起部、下り坂、スピードバンプなどの道路の特徴と、歩行者が着用する衣類の色と、フェンスの色と、等を含む観察された対象物のほぼ任意の視覚的な態様を含んでも良い。視覚情報はまた、対象物用の認識されるタイプの明示を含んでも良い。例えば、視覚情報は、認識されるフェンスのタイプ(例えば、木材、チェーンリンク、杭、防御柵等)、認識される車両のタイプ又はブランド(例えば、トラック、自動車、トラクタ、Maserati、Audi等)、橋のタイプ、建物のタイプ等を含んでも良い。
【0044】
任意のタイプの視覚情報が、特定のタスクの要件に依存して用いられても良い。幾つかの実施形態において、処理ユニット110は、都市部における対象物(例えば、歩行者、交通信号、建物、自動車、企業等)に基づいた視覚キューを認識しユーザに提供するために装備されても良い。処理ユニット110はまた、農村部で見つかる対象物(例えば、生け垣、木、フェンス、農舎、田舎風の壁、動物等)に基づいた視覚キューを認識しユーザに提供するように構成されても良い。
【0045】
幾つかの実施形態において、他の車両が、ユーザに提供される導き出された視覚情報及び視覚キューの基礎として働いても良い。かかる車両に関する情報は、ADASアプリケーションの副産物として決定されても良く、又はADASアプリケーションによって提供される情報を補足しても良い。例えば、前方衝突警報システムが、カメラの視界に存在する車両の全てを検出しても良く、且つ目標車両までの距離を計算しても良い。これらの目標車両及び距離のリストが、ナビゲーションシステム100に伝達されても良い。目標車両のいずれかが、興味のある距離(例えば、目的地への計算されたルートに沿った曲がり角の近く)に位置する場合に、その目標車両は、ユーザに提供される視覚キューの基礎として用いられても良い。例えば、興味のある距離における目標車両が、計算されたルートに沿って曲がる場合に、この情報は、目標車両に関連する1つ又は複数の特徴(例えば、色、タイプ等)と共に、運転手に伝達されても良い。
【0046】
カメラ122、124及び/又は126の視野における対象物の色は、任意の適切な方法で決定されても良い。例えば、幾つかの実施形態において、カメラ122、124及び/又は126のいずれも、フルカラーのカメラを構成しても良い。代替として、カメラ122、124及び/又は126の1つ又は複数が、フルRGBカメラでないカメラ(例えば赤色/クリアセンサだけを備えたカメラ)を用い得るADASシステムの一部である場合に、かかるシステムは、1つ又は複数の追加のカメラで強化されても良い。かかる強化は、青色を緑色と間違えるなど、色の識別における誤りを最小化し得る。動作において、ADASカメラからの目標車両は、目標車両に関連する色情報を決定又は確認するために、カラーカメラによって提供されるパッチと照合される。
【0047】
カメラ122、124及び/又は126の視野内における対象物までの距離はまた、任意の適切な方法を用いて決定されても良い。幾つかの実施形態において、デプスマップが、移動からの構造復元(SFM)を用いて決定されても良い。かかるデプスマップは、例えば、ADASシステムからの計算上の出力として利用可能であり得る。SFMデプスマップは、例えば、異なる位置からカメラによって取得された(例えば、カメラが車両200と共に移動するので)2つの画像を比較することによって決定されても良い。カメラの移動、及び取得画像の2つにおける目標対象物の結果としての外観は、少なくとも1つの距離(例えば、取得カメラと路面との間の距離)が周知で且つ相対的な尺度決定の基礎として使用され得る場合など、目標対象物までの距離の決定を可能にし得る。任意の2つの画像が比較されても良いが、幾つかの実施形態において、10m以上の距離にわたる移動後に取得された画像が、100m範囲における目標距離の決定用の適切な基礎を提供し得る(それは、ナビゲーション支援を決定するために有用であり得る)。速度計読み取り値又はGPSユニットからの出力などの追加情報もまた、目標対象物までの距離を決定するために用いられても良い。例えば、速度計又はGPSは、ホスト車両の移動に関する情報を提供しても良く、それは、SFM結果に対する地球規模の情報及び従って目標対象物までの距離を提供し得る。
【0048】
かかる計算は、画像デプスマップを生成するために、一連の画像における全ての画素用に実行することができる。これらのデプスマップは、例えば、特定の目標対象物が、興味のある交差点の前又は後に位置するかどうかを決定するために用いられても良い。デプスマップは、各画素値が情景における地点までの奥行きを示す、画素の2次元アレイであっても良い。以下で更に説明されるように、この情報は、「黄色の日除けを備えた店舗の直前100mで左に曲がる」など、視覚情報を含むナビゲーション指示を提供するために用いられても良い。
【0049】
デプスマップ計算は、計算上高価になり得る。従って、ADASデプスマップが既に利用可能な場合に、それらは、容易に使用され得る。しかしながら、他の実施形態において、GPSによってキューを与えられた視覚(GPS cued vision)は、計算上それほど高価でない代替を提供し得る。例えば、位置センサ130が、交差点までの距離を決定するために用いられても良い。この情報を用いれば、交差点までの目標距離用の優れた奥行きの推定を提供するために、2つの画像が、適切な離れた距離の位置(例えば、約100mの目標距離用の1m〜10m離れた、約200mの目標距離用の1m〜20m離れた、又は興味のある目標距離の約5%〜10%の)において取得されても良い。次に、2つの画像の少なくとも1つは、ワープされても良く、ワープされた画像は、任意の目標対象物が目標距離と一致するかどうかを決定するために、別の画像と比較されても良い。即ち、画像の選択された領域(例えば、潜在的な目標対象物に対応する領域)が、画像の取得間の移動量を考慮して、目標距離に位置する対象物の画像における予想される変化に対して分析されても良い。興味のある目標距離に位置する対象物の予想される移動の特性を示す画像領域は、一致すると考えられ、且つナビゲーションシステム100のユーザに提供される視覚情報用の基礎として用いられても良い。
【0050】
より具体的には、システムは、第1の画像の第1の領域を第2の画像の対応する領域と相関させるように、且つ第1の画像の第1の領域と第2の画像の対応する領域との間の密なオプティカルフローを計算するように構成されても良い。密なオプティカルフローは、第1又は第2の画像の少なくとも1つをワープさせるために用いられても良い。ナビゲーションシステム100は、対応関係を確立するように第1の画像における対象物特徴を第2の画像における対象物特徴と一致させるために、取得画像を処理しても良い。システムは、各画素用の奥行き情報を含む視差マップを作成しても良い。視差マップ計算は、第1の画像及び第2の画像における対応点のx座標間の、典型的には画素における距離を表しても良い。第1及び/又は第2の画像における各画素に関し、視差マップは、像点用の視差及び奥行き情報を含んでも良い。システムは、異なる分解能で視差画像を生成しても良い。期待値の或る範囲(例えば±10%)内に入る視差を備えた画像は、一致を構成しても良く、従って、所望の目標距離に位置する対象物に対応しても良い。この技術は、GPSによってキューを与えられた視覚と呼ばれても良いが、全体画像用の密なデプスマップを計算するより効率的になり得る。
【0051】
正確な移動を計算するために、道路平面に沿った地点が追跡されても良い。追跡される地点に基づいて、ホモグラフィが計算されても良く、ホモグラフィは、回転及びFOEに分解することができる。10m又は20mでもよい全体的な基線(即ち、取得画像間の移動距離)を測るために、2m〜3m離れたフレームなどの中間基線上の自己移動を計算し、且つ移動を連結することが便利になり得る。そうでなければ、路上の地点は、移動し過ぎる可能性があり、従って追跡するのが難しくなり得る。
【0052】
ひとたび自己移動が分かると、2つの画像は、画像回転を除去するように回転して調整することができる。これは、純粋な平行移動の一対に帰着し得る。10mの基線で200mにおける特徴を検出するために、1つの画像は、FOEを中心に210/200の倍率でスケーリングされても良く、整列する特徴は、その距離にあると思われる。この距離を検証するために、異なる基線及び適切なスケーリングで反復される照合を備えた第3の画像を用いることができる。両方のテストにおいて優れた一致を与える特徴が、200mに位置するものと思われ得る。
【0053】
複数のスケーリングが、約200mの範囲を見渡すために用いられ得る。代替として、200m用のスケーリング後の残余のフローが、残余の奥行きを提供する。このプロセスは、GPSから取得された関連する奥行きのまわりの特定の奥行き窓における特徴を除去できるようにする。
【0054】
複数の取得画像に基づいて、興味のある距離に位置する1つ又は複数の目標対象物を識別した後で、それらの目標対象物のいずれかに関連する視覚情報が、現在位置から目的地へナビゲートするための1つ又は複数の指示を決定するために用いられても良い。具体的には、ナビゲーションシステム100は、複数の画像から導き出された視覚情報への少なくとも1つの言及を1つ又は複数の指示に含んでも良い。
【0055】
かかる指示は、アプリケーションプロセッサ180によって、画像プロセッサ190によって、両方の組み合わせによって、又は1つ若しくは複数の他の処理装置を用いて作成されても良い。例えば、幾つかの実施形態において、画像プロセッサ190は、取得画像に存在する目標対象物及びそれらのそれぞれの距離、並びに目標対象物に関連する1つ又は複数の視覚的な特徴のリストをアプリケーションプロセッサ180に提供するように構成されても良い。アプリケーションプロセッサ180は、興味のある目標距離に位置する目標対象物をリストから識別し選択すること、及び選択された目標対象物に関連する視覚情報を1つ又は複数の指示に組み込むことによって、指示を決定しても良い。
【0056】
代替として、アプリケーションプロセッサ180が、新しい指示を出す準備ができた場合に、それは、興味のある特定の目標距離に位置する目標対象物を識別するために、画像プロセッサ190に問い合わせを送信しても良い。画像プロセッサは、目標対象物の1つ又は複数の視覚的な特徴と共に目標対象物の同一性を返すことによって応答しても良い。次に、アプリケーションプロセッサ180は、この情報を、作成される指示に組み込んでも良い。
【0057】
他の実施形態において、画像プロセッサ190は、視覚情報を組み込むナビゲーション指示を作成する責任を負っても良い。これら指示は、ユーザに送るためにアプリケーションプロセッサ180に提供されても良く、又は画像プロセッサ190は、これら指示を直接ユーザに送っても良い。
【0058】
幾つかの実施形態において、ナビゲーションシステム100は、特定の対象物に関する視覚情報を含む指示を出す前に、特定の対象物がユーザに見えるはずかどうかをテストしても良い。例えば、例えば地図データベース160に記憶された地図データ情報に基づいて、或る対象物(例えば特定の企業)の存在及びその正確な位置が知られても良い。記憶された地図情報に表されたかかる対象物は、マップされたエンティティと呼ばれても良い。幾つかの実施形態において、処理ユニット110は、マップされたエンティティに言及するナビゲーション指示(例えば、「100mでExxonガソリンスタンドを左に曲がる」)を作成することが可能である。しかしながら、視覚情報の利用は、これらのタイプの指示を向上させるために用いることができる。例えば、幾つかの実施形態において、特定の陸標又は企業が、地図データベース160に記憶された、マップされたエンティティとして表されない可能性がある。かかる場合に、画像取得ユニット120及び画像プロセッサ190は、興味のある距離に位置するものとしてかかる対象物を識別しても良く、且つナビゲーション指示に含むように1つ又は複数の視覚的な特徴を決定しても良い(例えば、企業に関連する看板又は印の文字認識及び/又はロゴ若しくは色認識に基づいた「100mでExxonガソリンスタンドを左に曲がる」、「青い日除けを備えた建物の直後に右に曲がる」等)。
【0059】
更に、ナビゲーションシステム100は、特定のマップされたエンティティが、ユーザに見えるはずかどうかを決定し、且つこの情報に基づいてナビゲーション指示を生成しても良い。例えば、ナビゲーションシステム100が、マップされたエンティティとして記憶された特定のガソリンスタンドに気づいているが、しかし画像取得ユニット120の出力に基づいて、ガソリンスタンドへの運転手の視界を遮る大きなトラックの後ろに運転手が居ることを認識している場合に、ナビゲーションシステム100は、運転手が見えないガソリンスタンドに言及する紛らわしい指示を出さなくても良い。代替として、ナビゲーションシステム100は、更に進んで不明瞭な対象物に関する指示を出しても良いが、しかしそれが現在不明瞭だという情報及び不明瞭な対象物に関連する視覚情報(例えば、「白いトラックの背後の次のExxonステーションで左に曲がる」)と共にそうしても良い。
【0060】
又はナビゲーションシステム100が、マップされたエンティティとして記憶された特定の位置(例えばMcDonaldのレストラン)を知っている場合に、ナビゲーションシステム100は、マップされたエンティティが存在するかどうかをテストし、且つテストに基づいて適切なナビゲーション指示を作成するために、画像取得ユニット120の出力を用いることができる。例えば、マップされたエンティティであるMcDonaldに関連する黄色の看板が、画像取得ユニット120によって提供される画像において認識される場合に、ナビゲーションシステム100は、「黄色のMcDonaldの看板の直後に右に曲がる」と言う指示を出しても良い。他方で、取得画像に黄色の看板が見つからない場合に、ナビゲーションシステム100は、「McDonaldの直後に右に曲がる」か、又はMcDonaldが画像にない場合には、単に「100mで右に曲がる」言っても良い。
【0061】
従って、幾つかの実施形態において、処理ユニット110は、少なくとも1つのマップされたエンティティを識別するために地図データを用いるように、且つ画像取得ユニット120によって提供された複数の画像に基づいて、少なくとも1つのマップされたエンティティがユーザに見えるかどうかを決定するように構成されても良い。マップされたエンティティがユーザに見える場合に、処理ユニット110は、マップされたエンティティへの少なくとも1つの言及(例えば、マップされたエンティティの少なくとも1つの視覚的な特徴を含む)を、決定された1つ又は複数の指示に含んでも良い。他方で、マップされたエンティティがユーザに見えないと決定された場合に、処理ユニット110は、マップされたエンティティへの言及を、決定された指示から省略しても良く、又は代替として、マップされたエンティティへの少なくとも1つの言及及びマップされたエンティティをユーザの視界から隠す対象物への少なくとも1つ言及を、決定された1つ又は複数の指示に含んでも良い。
【0062】
幾つかの実施形態において、1つを超える目標対象物が、関連する目標距離に存在する可能性がある。かかる場合に、ナビゲーションシステム100は、ナビゲーション指示に含まれる視覚情報用の基礎としてどの目標対象物が用いられるべきかを決定するために、階層的方式を用いても良い。例えば、ひとたび目標距離(例えば、目的地へのルートに沿った次の方向転換用に決定された距離)が決定されると、地図データベース160は、いずれか適切なマップされたエンティティが目標距離に存在し得るかどうかを決定するために、アクセスされても良い。マップされたエンティティが、画像取得ユニット110によって提供された画像に基づいて視覚的に検証される場合に、それらのマップされたエンティティは、所定の階層に従ってフィルタリングされても良い。例えば、大きな物理構造物に関連するマップされたエンティティは、ナビゲーション指示を作成する際に用いるために、より小さな物理構造物に関連するマップされたエンティティに優先して選択されても良い。同様に、明るい色の看板、位置標識、ロゴ等に関連するマップされたエンティティは、かかる看板、位置標識もロゴもないマップされたエンティティに優先して選択されても良い。
【0063】
幾つかの場合に、複数のマップされたエンティティが、目標距離に位置するものとして識別及び/又は検証されても良い。かかる場合に、ナビゲーションシステム100は、複数の目標のどれに依存するかを決定するために、追加の階層的順位を適用しても良い。再び、対象物の色及びサイズが、対象物を格付けする際の要因であっても良い。追加又は代替として、対象物の位置が用いられても良い。例えば、曲がる側に、且つ交差点の手前に位置する目標対象物は、曲がる側だが交差点の後に位置する目標対象物の前に格付けされても良い。階層において更により低いのは、曲がる側の反対側で交差点の手前に位置する目標対象物であっても良く、それは、曲がる側の反対側で交差点の後に位置する目標対象物より高く格付けされても良い。優先リストは、ユーザ選好によって調整することができる。
【0064】
この階層に基づいて、ナビゲーションシステム100は、目標対象物及びどんな特徴が見えるかに適した方向転換指示「200mで、緑の日除けを備えたHoliday Innを過ぎて左に曲がる」を出力しても良い。
【0065】
次に、地図データベースから陸標が検出も検証もされない場合に、システムは、いずれかの車両が、関連する目標距離における目標対象物として適格であるかどうかを決定しよう試みても良い。例えば、車両が、関連する交差点で曲がっているように取得画像から認識される場合に、車両は、指示用の基礎として用いられても良い。例えば、「100mの交差点で左に曲がる赤い車両に続く」。
【0066】
次に、マップされたエンティティも関連する車両もない場合に、ナビゲーションシステム100は、目標距離に位置する視覚的に検出される構造物を探索しても良い。かかる構造物がある場合に、処理ユニット110は、特定のブランドのガソリンスタンド、別個のロゴを備えたファストフード店などの陸標対象物のデータベースに対し、カラーヒストグラム、テンプレートマッチング、パターン認識及び/又はOCRを用いて、構造物を分類しようと試みても良い。一致が見つかった場合に、識別された構造物に関する視覚情報を含む適切な指示が提供されても良い。
【0067】
構造物が、データベースにおける特定の例と一致できない場合に、クラス型が識別され用いられても良い。幾つかの例は、(a)高さ6mを超える赤レンガ色の構造物が検出される場合に、「高いレンガ建築」を示し、(b)サイズで1mより大きなカラーの小塊が、地上から少なくとも2mのところに位置している場合に、「カラーの日除け」を示し、(c)イギリスにおいて、約1.5mの高さで0.5m幅の赤い対象物が検出される場合に、「郵便ポスト」を示すことを含んでも良い。もちろん、多くの他のクラスを定義し認識することができる。
【0068】
クラスは、優先度に従ってテストされても良い。検出される第1のクラスは、選択されたクラスであっても良い。代替として、各検出されるクラスは、視覚的に強化されたナビゲーション指示用の基礎として利用するために、目標対象物を選択する際の助けとなるクラスの重み、優先度の重み、及び/又は検出スコアを割り当てられても良い。それは、クラス優先度及び検出スコアの重みとすることが可能である。
【0069】
幾つかの実施形態において、決定木を用いることができる。一致が見つかった場合に、視覚的に強化されたナビゲーション指示が提供されても良い。他方で、一致が次に見つからなかった場合に、標準GPS型指示、例えば「200mで左に曲がる」が提供されても良い。
【0070】
特定の目標対象物が、ルート上の特定の地点に関するナビゲーション指示のセット全体の基礎として使用される必要はない。代わりに、ナビゲーションシステムは、追加又は代替目標対象物を断続的又は連続的に追及し、新しい目標対象物(特に、以前に依存した目標対象物より高い階層的ステータスを備えた目標対象物)が検出された場合に、更新された指示を提供しても良い。例えば、陸標が方向転換の反対側で最初に検出され、その後、次に、第2の陸標が、方向変換と同じ側で検出された場合に、新しく検出された陸標に基づいて、更新された指示が提供されても良い。更に、陸標が、地図データベースに存在するが、しかし視覚的に検証されなかった場合に、システムは、陸標を視覚的に検証するように繰り返し試みても良い。ひとたび視覚的に検証されると、指示は、更新されても良い。
【0071】
ひとたび視覚的に強化されたナビゲーション指示が決定されると、それらは、ナビゲーションシステム100のユーザに送られても良い。幾つかの実施形態において、指示は、(例えば、車両200に関連する1つ又は複数のスピーカを介して、モバイル装置400のスピーカ430を介して、又はウェアラブル装置500に関連するイヤホン/スピーカ530を介して)聞き取れるように送られても良い。追加又は代替として、指示は、(例えば、車両200のディスプレイ/タッチスクリーン320を介して、モバイル装置400のディスプレイ/タッチスクリーン410を介して、又はウェアラブル装置500のディスプレイ510を介して)視覚的に送られても良い。
【0072】
実例的な実施形態が、本明細書で説明されたが、説明された例は、非限定的である。更に、開示されたルーチンのステップは、ステップの再整理、及び/又はステップの挿入若しくは削除によることを含む任意の方法で修正されても良い。明細及び例が、単に実例として考えられ、真の範囲及び趣旨が、以下の請求項及びそれらの均等物の完全な範囲によって示されることが意図されている。
[項目1]
少なくとも1つの処理装置であって、
ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、上記ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、
上記現在位置と異なる目的地を決定すること、
1つ又は複数の画像取得装置から、上記ナビゲーションシステムのユーザの環境を表す複数の画像を取得すること、
上記複数の画像から、上記環境における少なくとも1つの対象物に関連する視覚情報を導き出すこと、
上記現在位置から上記目的地へナビゲートするための1つ又は複数の指示を決定し、上記1つ又は複数の指示が、上記複数の画像から導き出された上記視覚情報への少なくとも1つの言及を含むこと、且つ
上記1つ又は複数の指示を上記ユーザに送ること、
を行うように構成された少なくとも1つの処理装置を含むナビゲーションシステム。
[項目2]
上記目的地の決定が、ユーザ入力に基づく、項目1に記載のナビゲーションシステム。
[項目3]
上記ユーザ入力が、上記目的地に対応する住所の入力を含む、項目2に記載のナビゲーションシステム。
[項目4]
上記1つ又は複数の画像取得装置が、第1のカメラ及び第2のカメラを含み、上記第1のカメラが、上記第2のカメラの焦点距離と異なる焦点距離を有する、項目1に記載のナビゲーションシステム。
[項目5]
上記1つ又は複数の画像取得装置が、上記第1のカメラの上記焦点距離及び上記第2のカメラの上記焦点距離と異なる焦点距離を有する第3のカメラを含む、項目4に記載のナビゲーションシステム。
[項目6]
上記1つ又は複数の画像取得装置が、少なくとも5メガ画素の分解能を有するカメラを含む、項目1に記載のナビゲーションシステム。
[項目7]
上記視覚情報が、上記環境における上記少なくとも1つの対象物の少なくとも1つの特徴に関する、項目1に記載のナビゲーションシステム。
[項目8]
上記少なくとも1つの対象物が、車両、建物、看板、交通信号、道路の特徴、構造物、又は人間の少なくとも1つを含む、項目7に記載のナビゲーションシステム。
[項目9]
上記少なくとも1つの処理装置が、
少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
上記少なくとも1つのマップされたエンティティが上記ユーザに見えるかどうかを、上記複数の画像に基づいて決定すること、且つ
上記マップされたエンティティが上記ユーザに見えると決定された場合に、上記マップされたエンティティへの少なくとも1つの言及を上記1つ又は複数の指示に含めること、
を行うように構成される、項目1に記載のナビゲーションシステム。
[項目10]
上記少なくとも1つの処理装置が、
少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
上記少なくとも1つのマップされたエンティティが上記ユーザに見えるかどうかを、上記複数の画像に基づいて決定すること、且つ
上記マップされたエンティティが上記ユーザに見えないと決定された場合に、上記マップされたエンティティへの少なくとも1つの言及及び上記マップされたエンティティを上記ユーザの視界から隠す対象物への少なくとも1つの言及を、上記決定された1つ又は複数の指示に含めること、
を行うように構成される、項目1に記載のナビゲーションシステム。
[項目11]
上記少なくとも1つの処理装置が、
少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
上記少なくとも1つのマップされたエンティティが上記ユーザに見えるかどうかを、上記複数の画像に基づいて決定すること、且つ
上記マップされたエンティティが上記ユーザに見えないと決定された場合に、上記マップされたエンティティへのどんな言及も、上記決定された1つ又は複数の指示から省略すること、
を行うように構成される、項目1に記載のナビゲーションシステム。
[項目12]
上記視覚情報が、上記環境における上記少なくとも1つの対象物に関連する色を含む、
項目1に記載のナビゲーションシステム。
[項目13]
上記視覚情報が、上記環境における上記少なくとも1つの対象物に関連する対象物タイプを含む、項目1に記載のナビゲーションシステム。
[項目14]
上記1つ又は複数の指示が、聞き取れるように上記ユーザに送られる、項目1に記載のナビゲーションシステム。
[項目15]
上記1つ又は複数の指示が、モバイル装置に関連するディスプレイ又はスピーカの少なくとも1つに送られる、項目1に記載のナビゲーションシステム。
[項目16]
上記1つ又は複数の指示が、車両に関連するディスプレイ又はスピーカの少なくとも1つに送られる、項目1に記載のナビゲーションシステム。
[項目17]
上記1つ又は複数の指示が、ウェアラブル装置に関連するディスプレイ又はスピーカの少なくとも1つに送られる、項目1に記載のナビゲーションシステム。
[項目18]
上記1つ又は複数の画像取得装置が、先進運転支援システム(Advanced Driver Assistance System)によるカメラを含む、項目1に記載のナビゲーションシステム。
[項目19]
車両の位置を表す出力を提供するように構成されたGPSセンサと、
上記車両の外部の環境の複数の画像を取得するように構成された1つ又は複数の画像取得装置と、
少なくとも1つの処理装置であって、
ナビゲーションシステムに関連する1つ又は複数の位置センサの出力に基づいて、上記ナビゲーションシステムに関連する少なくとも1つのコンポーネントの現在位置を決定すること、
上記現在位置と異なる目的地を決定すること、
1つ又は複数の画像取得装置から、上記ナビゲーションシステムのユーザの環境を表す複数の画像を取得すること、
上記複数の画像から、上記環境における少なくとも1つの対象物に関連する視覚情報を導き出すこと、
上記現在位置から上記目的地へナビゲートするための1つ又は複数の指示を決定し、
上記1つ又は複数の指示が、上記複数の画像から導き出された上記視覚情報への少なくとも1つの言及を含むこと、且つ
上記1つ又は複数の指示を上記ユーザに送ること、を行うように構成された少なくとも1つの処理装置と、
を含む車両。
[項目20]
上記目的地の決定が、上記目的地に対応する住所を含むユーザ入力に基づく、項目19に記載の車両。
[項目21]
上記1つ又は複数の画像取得装置が、第1のカメラ及び第2のカメラを含み、上記第1のカメラが、上記第2のカメラの焦点距離と異なる焦点距離を有する、項目19に記載の車両。
[項目22]
上記1つ又は複数の画像取得装置が、少なくとも5メガ画素の分解能を有するカメラを含む、項目19に記載の車両。
[項目23]
上記視覚情報が、上記環境における上記少なくとも1つの対象物の少なくとも1つの特徴に関する、項目19に記載の車両。
[項目24]
上記少なくとも1つの対象物が、車両、建物、看板、交通信号、道路の特徴、構造物、又は人間の少なくとも1つを含む、項目19に記載の車両。
[項目25]
上記少なくとも1つの処理装置が、
少なくとも1つのマップされたエンティティを識別するために地図データを用いること、
上記少なくとも1つのマップされたエンティティが上記ユーザに見えるかどうかを、上記複数の画像に基づいて決定すること、
上記マップされたエンティティが上記ユーザに見えると決定された場合に、上記マップされたエンティティへの少なくとも1つの言及を上記決定された1つ又は複数の指示に含めること、
を行うように構成される、項目19に記載の車両。
[項目26]
上記少なくとも1つの処理装置が、
上記マップされたエンティティが上記ユーザに見えないと決定された場合に、上記マップされたエンティティへの少なくとも1つの言及及び上記マップされたエンティティを上記ユーザの視界から隠す対象物への少なくとも1つの言及を、上記決定された1つ又は複数の指示に含めること、を行うように構成される、項目25に記載の車両。
[項目27]
上記視覚情報が、上記環境における上記少なくとも1つの対象物に関連する色又はタイプの少なくとも1つを含む、項目19に記載の車両。
[項目28]
上記1つ又は複数の指示が、聞き取れるように上記ユーザに送られる、項目19に記載の車両。
[項目29]
ナビゲーション情報を生成し送るための方法であって、
1つ又は複数の位置センサの出力に基づいて現在位置を決定するために、1つ又は複数の処理装置を用いることと、
上記現在位置と異なる目的地を決定することと、
1つ又は複数の画像取得装置から、個人を取り囲む環境を表す複数の画像を取得することと、
上記環境における少なくとも1つの対象物に関連する視覚情報を上記複数の画像から導き出すために、上記1つ又は複数の処理装置を用いることと、
上記現在位置から上記目的地へナビゲートするための1つ又は複数の指示を決定することであって、上記1つ又は複数の指示が、上記複数の画像から導き出された上記視覚情報への少なくとも1つの言及を含むことと、
上記1つ又は複数の指示を上記個人に送ることと、
を含む方法。