特許第5944598号(P5944598)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グーグル インコーポレイテッドの特許一覧

特許5944598センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正
<>
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000002
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000003
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000004
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000005
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000006
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000007
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000008
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000009
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000010
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000011
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000012
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000013
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000014
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000015
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000016
  • 特許5944598-センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 図000017
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】5944598
(24)【登録日】2016年6月3日
(45)【発行日】2016年7月5日
(54)【発明の名称】センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正
(51)【国際特許分類】
   G06T 19/00 20110101AFI20160621BHJP
【FI】
   G06T19/00 A
【請求項の数】20
【全頁数】20
(21)【出願番号】特願2015-555195(P2015-555195)
(86)(22)【出願日】2014年1月17日
(86)【国際出願番号】US2014012020
(87)【国際公開番号】WO2014116512
(87)【国際公開日】20140731
【審査請求日】2016年3月31日
(31)【優先権主張番号】13/749,793
(32)【優先日】2013年1月25日
(33)【優先権主張国】US
【早期審査対象出願】
(73)【特許権者】
【識別番号】502208397
【氏名又は名称】グーグル インコーポレイテッド
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100126480
【弁理士】
【氏名又は名称】佐藤 睦
(74)【代理人】
【識別番号】100071010
【弁理士】
【氏名又は名称】山崎 行造
(74)【代理人】
【識別番号】100118647
【弁理士】
【氏名又は名称】赤松 利昭
(74)【代理人】
【識別番号】100138438
【弁理士】
【氏名又は名称】尾首 亘聰
(74)【代理人】
【識別番号】100138519
【弁理士】
【氏名又は名称】奥谷 雅子
(74)【代理人】
【識別番号】100123892
【弁理士】
【氏名又は名称】内藤 忠雄
(74)【代理人】
【識別番号】100169993
【弁理士】
【氏名又は名称】今井 千裕
(74)【代理人】
【識別番号】100131082
【弁理士】
【氏名又は名称】小原 正信
(74)【代理人】
【識別番号】100185535
【弁理士】
【氏名又は名称】逢坂 敦
(72)【発明者】
【氏名】ドルゴフ、ドゥミトリィ・エー
(72)【発明者】
【氏名】アームソン、クリストファー・ポール
【審査官】 村松 貴士
(56)【参考文献】
【文献】 特開2005−138764(JP,A)
【文献】 特開2000−339494(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 17/00 − 19/20
B60W 10/00 − 50/16
(57)【特許請求の範囲】
【請求項1】
車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、
前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、
前記実際の又は予想される気象条件が前記複数のセンサーの1つ以上の視野の範囲に与える影響を明確にするために、前記受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、
前記調整を行った後、前記複数のセンサーの統合された視野の程度を示す包括的な3Dモデルを生成するために前記複数の3Dモデルを、1以上のプロセッサーにより統合するステップと、
物体によって塞がっている前記周辺の第1部分、物体によって塞がっていない前記周辺の第2部分、及び前記複数のセンサーのいずれかによって遮られている前記周辺の第3部分を特定する情報により注釈がつけられた結合モデルを生成するために、前記車両のさまざまな想定される位置のなかから、詳細な地図情報におけるさまざまな位置で物体を検出する確率を示す、前記詳細な地図情報の確率データを用いて、前記包括的な3Dモデルと前記詳細な地図情報とを結合するステップと、
前記車両を操作するために前記結合モデルを用いるステップと、
を具備する方法。
【請求項2】
各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づくことを特徴とする、請求項1に記載の方法。
【請求項3】
各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づくことを特徴とする、請求項1に記載の方法。
【請求項4】
前記天候情報を、ネットワークを介して遠隔のコンピュータから受け取ることを特徴とする、請求項1に記載の方法。
【請求項5】
前記天候情報を、前記複数のセンサーのうちの1つから受け取ることを特徴とする、請求項1に記載の方法。
【請求項6】
前記複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
この確率データは、前記包括的な3Dモデルを生成するための前記複数の3Dモデルを統合するときに用いられることを特徴とする、請求項1に記載の方法。
【請求項7】
車両のさまざまな想定される位置のなかから、詳細な地図情報におけるさまざまな位置で物体を検出する確率を示す確率データを含む前記詳細な地図情報を格納するメモリと、
車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成し、
前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取り、
前記実際の又は予想される気象条件が前記複数のセンサーの1つ以上の視野の範囲に与える影響を明確にするために、前記受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整し、
前記調整を行った後、前記複数のセンサーの統合された視野の程度を示す包括的な3Dモデルを生成するために前記複数の3Dモデルを統合し、
物体によって塞がっている前記周辺の第1部分、物体によって塞がっていない前記周辺の第2部分、及び前記複数のセンサーのいずれかによって遮られている前記周辺の第3部分を特定する情報により注釈がつけられた結合モデルを生成するために、前記確率データを用いて、前記包括的な3Dモデルと前記詳細な地図情報とを結合し、
前記車両を操作するために前記結合モデルと詳細な地図情報とを用いるよう構成された1以上のプロセッサーと、
を具備するシステム。
【請求項8】
各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づくことを特徴とする、請求項7に記載のシステム。
【請求項9】
前記複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
この確率データは、前記包括的な3Dモデルを生成するための前記複数の3Dモデルを統合するときに用いられることを特徴とする、請求項7に記載のシステム。
【請求項10】
コンピュータ読み取り可能なプログラムの命令を記録するための、実体のある、非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令は、1以上のプロセッサーにて実行されたとき、前記1以上のプロセッサーに、
車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、
前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、
前記実際の又は予想される気象条件が前記複数のセンサーの1つ以上の視野の範囲に与える影響を明確にするために、前記受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、
前記調整を行った後、前記複数のセンサーの統合された視野の程度を示す包括的な3Dモデルを生成するために前記複数の3Dモデルを統合するステップと、
物体によって塞がっている前記周辺の第1部分、物体によって塞がっていない前記周辺の第2部分、及び前記複数のセンサーのいずれかによって遮られている前記周辺の第3部分を特定する情報により注釈がつけられた結合モデルを生成するために、前記車両のさまざまな想定される位置のなかから、詳細な地図情報におけるさまざまな位置で物体を検出する確率を示す、前記詳細な地図情報の確率データを用いて、前記包括的な3Dモデルと前記詳細な地図情報とを結合するステップと、
前記車両を操作するために前記結合モデルを用いるステップと、
を具備する方法を実行させることを特徴とする、記憶媒体。
【請求項11】
複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
この確率データは、前記包括的な3Dモデルを生成するための前記複数の3Dモデルを統合するときに用いられることを特徴とする、請求項10に記載の記憶媒体。
【請求項12】
複数の3Dモデルの1以上の特性を調整するステップは、気象条件のセットの少なくとも1つのパラメータ化したモデルを組み立てることを含むことを特徴とする、請求項1に記載の方法。
【請求項13】
複数の3Dモデルの1以上の特性を調整するステップは、所定のセンサーの有効な距離を減少させること及び盲点を所定のセンサーの視野に組み込むことのうちの少なくとも1つを含むことを特徴とする、請求項1に記載の方法。
【請求項14】
前記車両を操作するために前記結合モデルを用いるステップは、前記車両のスピードを落とすこと及び前記車両の位置を変えることを含むことを特徴とする、請求項1に記載の方法。
【請求項15】
前記確率データは、物体の大きさ又は形状に基づき所定の位置で前記物体を検出する確率についての情報を含むことを特徴とする、請求項6に記載の方法。
【請求項16】
前記複数の3Dモデルを統合するステップは、前記複数の3Dモデルの前記確率データを比較することと、特定の位置で物体を検出する最も高い確率を保持することと、を含むことを特徴とする、請求項6に記載の方法。
【請求項17】
前記複数の3Dモデルを統合するステップは、確実性のある領域又は閾値を作成することを含むことを特徴とする、請求項6に記載の方法。
【請求項18】
前記1以上のプロセッサーは、気象条件のセットの少なくとも1つのパラメータ化したモデルを組み立てることによって、前記複数の3Dモデルの前記1以上の特性を調整するように構成されることを特徴とする、請求項7に記載のシステム。
【請求項19】
前記1以上のプロセッサーは、所定のセンサーの有効な距離を減少させることによって、前記複数の3Dモデルの前記1以上の特性を調整するように構成されることを特徴とする、請求項7に記載のシステム。
【請求項20】
前記車両をさらに具備することを特徴とする、請求項7に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
この出願は、2013年1月25日に出願された米国特許出願番号13/749,793、表題、「センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正」に基づく継続出願であり、この出願のすべてを参照することにより本出願に組み込むものとする。
【背景技術】
【0002】
自律走行車両は、乗客を1つの場所から他の場所へ移送することを目的として、種々の演算システムを用いる。自律走行車両によっては、パイロット、ドライバー、又は乗客のようなオペレーターからの初期入力又は連続入力を必要とすることもある。他のシステムでは、例えば自動操縦システムを、手動モード(このモードでは、オペレーターはその車両の動作の高度なコントロールを行う)から自律走行モード(このモードでは、車両は基本的に自分で動く)、或いは、その間の中間的なモードにオペレーターが切り替えるシステムが導入されているときのみに用いることができる。
【0003】
そのような車両は、周囲の物体を検出するために種々の形式のセンサーを装備する。例えば、自律走行車両には、レーザー、ソナー、レーダー、カメラ、及び車両の周囲をスキャンし、データを記録する他の装置を含めることができる。これらの装置は、組み合わせて(場合によっては単独で)車両の周辺で検出された物体の3Dモデルを構築するために用いることができる。
【0004】
車両の周辺にある物体のモデル化及び検出に加えて、自律走行車両は、安全に走行するために、(例えば、閉塞により)センサーが見えない部分を推論する必要がある。センサーにおけるこれらの制限を考慮しない場合、見通しのきかない曲がり角を通ったり、他の物体により部分的に閉塞されたところに入り込んだり、等の危険な運転となってしまうことがある。
【発明の概要】
【0005】
本開示の1つの形態では、方法を提供する。前記方法には、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合するステップと、前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、が含まれる。
【0006】
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づく。別の例では、天候情報を、ネットワークを介して遠隔のコンピュータから受け取る。別の例では、天候情報を、複数のセンサーのうちの1つから受け取る。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。別の例では、前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られる。
【0007】
本開示の他の形態では、システムを提供する。前記システムには、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成し、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取り、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整し、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合し、前記包括的な3Dモデルと詳細な地図情報とを結合し、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるよう構成されたプロセッサーが含まれる。
【0008】
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づく。別の例では、天候情報を、ネットワークを介して遠隔のコンピュータから受け取る。別の例では、天候情報を、複数のセンサーのうちの1つから受け取る。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。別の例では、前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られる。
【0009】
本開示の更なる形態では、コンピュータ読み取り可能なプログラムの命令を記録するための、実体のある、非一時的なコンピュータ読み取り可能記憶媒体を提供する。前記命令は、プロセッサーにて実行されたとき、前記プロセッサーにある方法を遂行させる。前記方法には、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを統合するステップと、前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、が含まれる。
【0010】
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。
【図面の簡単な説明】
【0011】
図1】例示的実施の形態によるシステムの機能図である。
図2】例示的実施の形態による自律走行車両の内装である。
図3】本開示の形態による自律走行車両の外装である。
図4A】本開示の形態による自律走行車両の図解である。
図4B】本開示の形態による自律走行車両の図解である。
図4C】本開示の形態による自律走行車両の図解である。
図4D】本開示の形態による自律走行車両の図解である。
図5】本開示の形態による詳細な地図情報の1つの例である。
図6】本開示の形態による詳細な地図情報の別の例である。
図7A】本開示の形態によるシステムの絵図である。
図7B】本開示の形態によるシステムの機能図である。
図8A】本開示の形態によるセンサーの3Dモデルの構成要素の例である。
図8B】本開示の形態によるセンサーの3Dモデルの構成要素の例である。
図9A】本開示の形態によるセンサーの3Dモデルの構成要素の別の例である。
図9B】本開示の形態によるセンサーの3Dモデルの構成要素の別の例である。
図10】本開示の形態による複数のセンサーの包括的な3Dモデルの1つの例である。
図11】本開示の形態による複数のセンサーの包括的な3Dモデルの別の例である。
図12】本開示の形態による詳細な地図情報と結び付けられた複数のセンサーの包括的な3Dモデルの1つの例である。
図13】本開示の形態によるフロー線図の1つの例である。
【発明を実施するための形態】
【0012】
本願開示の形態は、一般に、車両の周辺の現在の光景のモデル化に関する。この光景には、車両が実際にどんな物体又は形態を見ているのかを含める必要はなく、センサーに遮るものがない場合に車両がそのセンサーを用いて観測することができる区域を含める必要がある。例えば、物体検出要素の複数のセンサーの各々に対して、コンピュータは、センサーの視野の個々の3Dモデルを採用することができる。天候情報を受け取り、1つ以上の前記モデルを調整するために用いる。この調整が終わった後、このモデルを包括的な3Dモデルに統合することができる。この包括的なモデルを、別の場所で物体を検出する確率を示す詳細な地図情報と結合することができる。車両の周辺のモデルを、結合された包括的な3Dモデルと詳細な地図情報とに基づき計算することができ、車両の操作に用いることができる。
【0013】
図1に示すように、ここに開示した1つの形態による自律走行運転システム100には、種々の構成部品を有する車両101が含まれる。開示した特定の形態では、特定のタイプの車両について特に実益があり、これらの車両として、乗用車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、RV車、遊園地の乗り物、農機具、建設用機器、市街電車、ゴルフカート、列車、及び路面電車を含むあらゆるタイプの車両があげられるがこれらに限定されるものではない。車両は、プロセッサー120、メモリー130、及び汎用コンピュータに一般的に用いられる他の構成部品を有するコンピュータ110のような、1以上のコンピュータを有することができる。
【0014】
メモリー130は、プロセッサー120により実行或いは用いることができる命令132及びデータ134を含む、プロセッサー120がアクセス可能な情報を保存する。メモリー130は、コンピュータ読み取り可能媒体、又は、ハードディスクドライブ、メモリーカード、ROM、RAM、DVD又は他の光ディスクのみならず、他の書き込み可能なメモリー及び読み込み専用メモリーのような、電子装置により読み込むことのできるデータを保存するコンピュータ読み取り可能媒体、又は他の媒体を含むプロセッサーがアクセス可能な情報を保存することのできるあらゆるタイプとすることができる。システム及び方法には、前述の種々の組み合わせを含むことができ、命令及びデータの異なる部分は異なるタイプの媒体に保存される。
【0015】
命令132は、プロセッサーにより(機械語のように)直接的に又は(スクリプトのように)間接的に実行できる命令のどのようなセットでもよい。例えば、コンピュータ読み取り可能媒体上のコンピュータコードとして命令を保存することができる。これに関連して、「命令」及び「プログラム」の語は、ここでは互いに置き換え可能に用いることができる。命令は、プロセッサーで直接処理ができるオブジェクトコードフォーマット、又は、要求によりインタープリトされ又はあらかじめコンパイルされる独立のソースコードのスクリプト又はコレクションを含む他のあらゆるコンピュータ言語で保存することができる。命令の機能、方法、及び業務については以下に詳述する。
【0016】
命令132に従い、プロセッサー120によりデータ134を検索し、保存し、変更することができる。例えば、要求する対象が、特定のデータ構造により制限されていなくても、複数の異なるフィールド及びレコードを有するテーブル、XMLドキュメント、又はフラットファイルとして、リレーショナルデータベースとしてデータをコンピュータレジスターに保存することができる。データは、いろいろなコンピュータ読み取り可能フォーマットにフォーマットすることもできる。さらにほんの例示として、グラフィックを描画するためのコンピュータ命令のみならず、圧縮又は非圧縮、損失のない(例えば、BMP)又は損失のある(例えば、JPEG)、及びビットマップ又はベクトルベース(例えば、SVG)のフォーマットで保存されたピクセルのグリッドからなるビットマップとして、イメージデータを保存することができる。データは、数値、説明文、所有者コード、同じメモリー又は異なるメモリー(他のネットワーク中のものも含む)の他の領域に保存されたデータへの参照、又は、対応するデータを計算する機能により用いられる情報のような、対応する情報を特定するのに十分なあらゆる情報を具備することができる。
【0017】
プロセッサー120は、商業的に入手可能なCPUのような、従来のどのようなプロセッサーでもよい。代替的に、プロセッサーをASIC、その他のハードウェア・ベースのプロセッサーのような専用装置とすることもできる。図1には、同じブロック内にあるものとして、プロセッサー、コンピュータ、メモリー、及び他のコンピュータ110要素を機能的に図示しているが、当業者であれば、プロセッサー及びメモリーは、実際には、同じ物理的な筺体内に収納することも同じ筺体内に収納しないこともできる、複数のプロセッサー及びメモリーであってもよいことは理解できるであろう。例えば、メモリーは、コンピュータ110の筺体とは別の筺体内に収納したハードディスクドライブ又は他の記憶媒体とすることができる。従って、当然のことながら、プロセッサー又はコンピュータと言うときには、並列運転していることも並列に運転していないこともあるプロセッサー又はコンピュータ又はメモリーを言うことが含まれる。ここで記載するステップを実行させるために単一のプロセッサーを使わないで、ステアリング用部品及び減速用部品のような構成部品の各々が、その構成部品特有の機能に関する計算のみを実行するような特有のプロセッサーを持つようにすることもできる。
【0018】
ここに記載した種々の形態において、プロセッサーを、車両から隔てて配置し、車両と無線で交信させることもできる。他の形態において、ここに記載した処理は車両中に配置したプロセッサーにより実行され、1つの操作を実行するために必要なステップを行う場合も含めて、他の処理は遠隔のプロセッサーにより実行される。
【0019】
コンピュータ110は、中央演算処理装置(CPU)、ウェブブラウザのようなデータ134や命令を保存するメモリー(例えば、RAM及び内部ハードディスクドライブ)、電子表示142(例えば、スクリーン、小型LCDタッチスクリーン、又は、情報を表示することのできる他の電子装置)、ユーザー入力140(例えば、マウス、キーボード、タッチスクリーン、及び/又は、マイクロフォン)、及び、人の状態又は人が求める明確な(例えば、ジェスチャー)又は間接的な(例えば、「居眠りしている」)情報を収集するための種々のセンサー(例えば、ビデオカメラ)のような、コンピュータと共に通常用いられる構成要素を具備する。
【0020】
1つの実施例では、コンピュータ110は、車両101に組み込まれた自律走行運転演算システムとすることができる。図2は、自律走行車両の内装の典型的なデザインを示す。自律走行車両は、例えば、ステアリングホイール210のようなステアリング装置やナビゲーション表示215のようなナビゲーション表示装置や変速装置220のようなギア比選択装置のような、自律走行車両でない車両のすべての機構が含まれる。自律走行車両はまた、1つ以上の自律走行運転モードを始動又は停止させるため、及び、ナビゲーション目的地のような情報をドライバー又は乗客290が自律走行運転コンピュータ110に提供することができるようにするために、変速装置220、タッチスクリーン217、又はボタン入力219のような種々のユーザー入力装置を有することができる。
【0021】
自律走行運転演算システムは、車両の種々の構成部品と通信することができる。例えば、図1に戻って、コンピュータ110は車両の中央プロセッサー160と通信することができ、車両101の動き、速度等をコントロールするために、車両101の種々のシステム、例えばブレーキングシステム180、加速システム182、信号システム184、及びナビゲーションシステム186と情報を送受信することができる。加えて、スイッチをいれたとき、コンピュータ110は、車両101のこれらのすべての機能または一部の機能をコントロールし、完全な自律走行又は部分的な自律走行にすることができる。種々のシステム及びコンピュータ110は車両101内にあるように示されているが、これらの構成要素は、車両101の外部又は物理的に遠く離しておくことができる。
【0022】
車両にはまた、装置の地理的位置を決定するためにコンピュータ110と通信を行う地理的位置検出要素144を含めることもできる。例えば、この位置検出要素には、装置の緯度、経度、及び/又は高度を判断するためにGPS受信機を含めることができる。レーザーベースの位置特定システム、慣性援用GPS、又はカメラベースの位置検出のような他の位置検出システムも、車両の位置を特定するために用いることができる。車両の位置には、絶対的地理的位置より少ないノイズで判断することのできる、すぐ近くの他の乗用車等との相対位置のような、相対位置情報のみならず、緯度、経度、及び高度のような、絶対的地理的位置を含めることができる。
【0023】
車両には、車両の方向と速度又はその変化を決定するための、加速度計、ジャイロスコープ、又は他の方向/速度検出装置146のような、コンピュータ110との通信を行う他の装置を含めることもできる。単なる例として、加速装置146は、重力の方向又は重力に垂直な平面の方向に対するピッチ、振れ、揺れ(又はそれらの変化)を決定することができる。この装置は、このような変化の速さ及び方向の増加又は減少を追跡することもできる。ここに述べたようなこの装置の位置及び方向データについての項目は、ユーザー、コンピュータ110、他のコンピュータ、及びこれらを組み合わせたものに自動的に提供される。
【0024】
コンピュータ110は、種々の構成部品を制御することにより車両の方向及び速度をコントロールすることができる。例示として、車両を完全に自律走行モードで運転している場合、コンピュータ110は、(例えば、エンジンに供給される燃料又は他のエネルギーを増加させることにより)車両を加速させること、(例えば、エンジンに供給される燃料を減少させること、又はブレーキをかけることにより)車両を減速させること、及び(例えば、前方の2つの車輪の向きを変えることにより)車両の方向を変えることができる。
【0025】
車両には、他の車両、道路上の障害物、交通信号、標識、樹木、等のような、車両の外にある物体を検出するための構成部品を含めることができる。検出システムには、コンピュータ110で処理することのできるデータを記録するレーザー、ソナー、レーダー、カメラ又はその他の検出装置を含めることができる。例えば、車両が小型の乗客車両である場合、この車には、屋根又は他の具合のいい場所に取り付けたレーザーを含めることができる。
【0026】
図3に示すように、小型の乗客車両301には、それぞれ車両の前方及び屋根に取り付けたレーザー310及び311を含めることができる。レーザー310は、約150メートルの到達距離、13度の垂直視野、約30度の水平視野を有することができる。レーザー311は、約50〜80メートルの到達距離、13度の垂直視野、360度の水平視野を有することができる。レーザーにより、車両は、種々の物体の位置と距離を特定するためにコンピュータが用いることのできる距離と強さの情報を得ることができる。1つの形態によれば、レーザーは、レーザー軸を回転し傾きを変更することにより車両と車両のほうを向く物体の面との距離を計測することができる。
【0027】
車両には、適応巡航コントロールシステムに用いるような、種々のレーダー検出装置を含めることもできる。レーダー検出装置は、乗用車のフロントバンパーのどちらか一方の側のみならず、前方及び後方に配置することもできる。図3の例に示すように、車両301には、車両の側面(一方だけが示されている)、前方及び後方に、レーダー検出装置320〜323が含まれている。これらのレーダー検出装置は、約56度の視野で60メートルの到達距離を持つのみならず、約18度の視野で約200メートルの到達距離を持つことができる。
【0028】
別の例では、種々のカメラを車両に取り付けることができる。カメラは、2つ以上のカメラからの視差を種々の物体までの距離を計算するために用いることができるよう、所定の距離を置いて取り付けることができる。図3に示すように、車両300には、バックミラー(不図示)の近くのフロントガラス340の裏に取り付けたカメラ330〜331を含めることができる。カメラ330は、約200メートルの到達距離及び約30度の水平視野を持つことができる一方、カメラ331は、約100の到達距離及び約60度の水平視野を持つことができる。
【0029】
各センサーは、センサーが物体を検出するために用いることのできる特定のセンサー場と関連付けることができる。図4Aは、種々のセンサーの概略のセンサー場を上から見た図である。図4A〜4Dでは、これらの視野は、2次元(2D)で示されているが、実際のセンサー場は、3次元となる。図4Bは、レーザー310及び311の概略の2Dセンサー場410及び411を示し、それぞれ、これらのセンサーの視野に基づく。例えば、2Dセンサー場410は、約150メートルで、約30度の水平視野を有し、センサー場411は、約80メートルで、360度の水平視野を有する。これらは2Dで例示されているので、垂直視野は示されていない。
【0030】
図4Cは、レーダー検出装置320〜323の各々についてについての概略の2Dセンサー場420A〜423Bを示し、それぞれ、これらのセンサーの視野に基づく。例えば、レーダー検出装置320は、センサー場420A及び420Bを有する。センサー場420Aは、約200メートルで、約18度の水平視野を有し、センサー場420Bは、約80メートルで、約56度の水平視野を有する。同様に、レーダー検出装置321〜323はセンサー場421A〜423A及び421B〜423Bを有する。センサー場421A〜423Aは、約200メートルで、約18度の水平視野を有し、センサー場421B〜423Bは、約80メートルで、約56度の水平視野を有する。センサー場421A及び422Aは、図4A及び4Cの縁まで伸びる。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。
【0031】
図4Dは、カメラ330〜331の、これらのセンサーの視野に基づく、概略の2Dセンサー場430〜431を示す。例えば、カメラ330のセンサー場430は、約200メートルで約30度の視野を有し、カメラ430のセンサー場431は、約100で約60度の視野を有する。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。
【0032】
前述のセンサーにより、車両は評価を行うことができ、周囲の物体や人々だけでなく乗客の安全を最大限にするために、周囲状況に応答する能力を有することができる。車両の形式、センサーの数量や形式、センサーの位置、センサーの視野、及びセンサー(2D又は3D)のセンサー場は、単なる例示であることは理解されよう。種々の他の構成を用いることもできる。
【0033】
上述のセンサーに加え、コンピュータは、他のセンサーからの入力も使うことができる。例えば、これらの他のセンサーには、タイヤ空気圧センサー、エンジン温度センサー、ブレーキ熱センサー、ブレーキパッド状態センサー、タイヤトレッドセンサー、燃料センサー、オイルのレベル及び質センサー、(温度、湿度、又は空気中の微粒子を検出するための)空気特性センサー、等を含めることができる。
【0034】
これらのセンサーの多くは、リアルタイムでコンピュータにより処理されるデータを提供する。すなわち、センサーは、ある時間範囲で測定中の周囲状況を反映する出力を連続的に更新し、コンピュータが、車両のその時の最新の方向又は速度を検出した周囲状況に応じて修正すべきかどうか判断することができるように、連続的に又は要求に応じて更新された出力をコンピュータに提供することができる。
【0035】
種々のセンサーから提供されたデータの処理に加えて、コンピュータは、時間的に先に得られた、周囲に車両の存在の有無にかかわらず存続する周囲データに頼ることができる。例えば、図1に戻って、データ134には、詳細な地図情報136、例えば、道路の形や高さ、車線境界線、交差点、横断歩道、制限速度、交通信号、建物、リアルタイムの交通情報、植物、又はそのような物や情報を特定する非常に詳細な地図を含めることができる。例えば、地図情報には、道路の種々の区画での系統立てた速度制限情報を含めることができる。速度制限データは、人手により、又は、例えば、光学式文字認識を用いて速度制限標識のイメージをあらかじめ読み込むことにより入力することができる。
【0036】
地図情報には、上述の1つ以上の対象物を組み込んだ3次元地形図を含めることができる。例えば、車両は、リアルタイムデータ(例えば、他の乗用車の現在のGPSを特定するためのセンサーを用いて)及び他のデータに(例えば、この他の乗用車が右(左)折車線内にあるかどうかを判断するための、あらかじめ保存されている車線専用の地図データとGPSとを比較することで)基づき他の乗用車が向きを変えようとしているかどうかを判断することができる。
【0037】
図5は、交差点510を含む道路部分の地図情報500の1つの例である。この実施例において、交差点510は、4方向の停止位置があるが、地図情報136には、任意の数の異なる道路構成、道路の組み合わせ、及び/又は道路の形態を含めることができる。地図情報には、車線境界線530〜533及び540〜547により定義される車線520〜527が含まれる。地図情報にはまた、横断歩道550〜553の形状及び位置に関する詳細を含めることができる。道路の範囲を越えて、地図情報500にはまた、歩道560〜563、建造物570〜573、及び(樹木のような)植物580〜582を含めることができる。建造物570〜573には、種々の形式の建造物を含めることができる。例えば、建造物570及び571には、ガレージ、店舗、家、事務所、等のような建物を含めることができる。別の例では、建造物572には壁面構造を含めることができる。
【0038】
この場合もやはり、詳細な地図情報136をここでは画像に基づく地図として示したが、地図情報は全部画像に基づいたもの(例えば、ラスター)である必要はない。例えば、詳細な地図情報には、道路、車線、交差点、及びこれらの形態の接続点のような、1以上の道路グラフ又は情報のグラフネットワークを含むことができる。各形態は、グラフデータとして保存することができ、地理的位置、及び、他の関連形態と関連付けられているかどうか、例えば停止信号が道路や交差点等と関連付けられているかどうかのような情報と関連付けることができる。例えば、停止標識は、道路及び交差点と関連付けることができる。いくつかの実施例では、関連するデータには、特定の道路グラフ形態を効率的にルックアップすることができるように、道路グラフのグリッドに基づくインデックスを含むことができる。
【0039】
詳細な地図情報には、種々の区域において、物体を検出する確率に関する情報にコード化することができる。図6の地図情報600は、このような地図情報の1つの例である。例えば、壁572を見る車両センサー及び車両のコンピュータがこの構造物を「壁」と認識する代わりに、地図は、壁572がレーザー又はレーダーの妨げとなっていることに注目することができ、従って、地図情報600には、壁572の後ろの(又は、車両のセンサーの、壁の反対側にある)物を検出する確率がゼロであることを示す注釈と関連させた区域610を含めることができる。
【0040】
別の例では、地図情報600には、壁572が3フィート(91.4cm)高さであることを示すことができる。このことについて、区域610についての注釈では、その区域について、3フィート(91.4cm)より高い物体を見ることについて高い信頼性があるが、3フィート(91.4cm)より低い物体を見ることについて信頼性が低くなることを注釈することができる。このことについて、植物、建物、壁、モニュメント、標識、タワー、その他の構造物又は物体のような、詳細な地図情報に明記された物体と、それぞれ、車両のセンサーに対してその構造物とは反対側にある、特定の大きさ又は形状の別の物体を、車両が検出することができる確率とを結び付けることができる。
【0041】
コンピュータ110はまた、他のコンピュータから情報を受け取ったり、又は他のコンピュータに情報を送信することもできる。コンピュータ110に記録された地図情報を、(図5及び6に示した実施例のように)他のコンピュータから受け取ったり、又は他のコンピュータに送信することができ、及び/又は、車両101のセンサーから集められたセンサーデータを、ここで説明するように、処理するために他のコンピュータに送信することができる。図7A及び7Bに示すように、コンピュータ110からのデータは、ネットワークを介して、さらなる処理のためにコンピュータ720に送信することができる。ネットワーク及び介在するノードは、インターネット、ワールド・ワイド・ウェブ、イントラネット、仮想私設ネットワーク、ワイド・エリア・ネットワーク、ローカル・ネットワーク、1以上の会社で独自の通信プロトコルを用いたプライベート・ネットワーク、イーサネット、WiFi及びHTTP、及びこれらの様々な組み合わせを含む種々の構成及びプロトコルを具備する。このような通信は、モデム及び無線インターフェースのような、他のコンピュータへの送信及び他のコンピュータからの受信ができる任意の装置により行うことができる。別の例では、データは、コンピュータ110及び720にアクセス又は接続することができるメモリーに記録することで伝達することができる。
【0042】
1つの実施例では、例えば、コンピュータ110からのデータを受け取り処理し伝送するため、ネットワークの別々のノードの情報を交換する、複数のコンピュータ、例えば、ロード・バランス・サーバー・ファームを有するサーバーを具備することができる。サーバーは、プロセッサー730、メモリー740、命令750、及びデータ760を有するコンピュータ110と同様の構成とすることができる。
【0043】
1つの実施例では、サーバー720のデータ760には、天候に関係する情報を提供することを含めることができる。例えば、サーバー720は、天候に関係する様々な情報を受け取り、監視し、記録し、更新し、送信することができる。この情報には、レポート、レーダー情報、予報、等の形の、例えば、降水量、雲、及び/又は、温度の情報を含めることができる。
【0044】
上述し図示した動作に加え、種々の動作について説明する。以下の動作は、正確に以下に記載の順序で行わなければならないわけではないことは理解されよう。むしろ、種々のステップは異なる順序又は同時に行うことができ、ステップを付け加えることも省略することもできる。
【0045】
車両のセンサーの限界を判断し、車両の動きを調整するために、コンピュータ110は、車両の相異なるセンサーの各々が車両の周辺を観測するため現在どのように見ることができているかを示す3Dモデルを生成することができる。これには、例えば、センサーが現在見ている物体や形態ではなく、センサーの視野が物体により遮られることが全くなかったとした場合にセンサーが見ることのできる区域を含めることができる。これらのモデルは、車両に対して相対的なセンサーの位置や方向が与えられたときの各センサーの視野に基づくことができる。この情報は、個々のセンサーモデルを各々決定する前に、一般的な校正ステップを用いて、あらかじめ決めておくことができる。
【0046】
例えば、図8A及び8Bには、センサー311についての個々の3Dモデル800の構成要素が含まれる。レーザー311についてのモデル800には、図8Aに示した2Dセンサー場411の寸法と、図8Bに示した第3の垂直の寸法とを含むことができる。従って、これらの要素(411及び811)の組み合わせをレーザー311についての3Dモデル800を生成するために用いることができる。同様のモデルを、これにより、物体検出要素148のセンサーの各々について生成することができる。
【0047】
加えて、この個々のセンサーモデルには、所定のセンサー場内の種々の地点又は区域で物体を検出する確実性を記述する確率的なデータを含めることができる。例えば、特定のモデルには、所定のセンサー場内で物体を検出する確実性を示す情報を含めることができる。例えば、1つのモデルは、センサー場の中央にある物体、又は、センサーからある距離以内にある物体を検出する確実性は高く、センサー場の外側では確実性が低くなることがある。
【0048】
図9及び9Bには、確率的なデータを有する、レーザー311についての3Dモデル900の構成要素の実施例である。3Dモデル900の影をつけた構成要素は、物体を検出する確実性が高くなるような、レーザー311に近い場所ほど濃くなるよう示され、レーザー311から遠い区域は、物体を検出する確実性が低くなり、薄い色で示される。
【0049】
別の例では、確率的なデータを有するモデルには、モデル内の特定の位置で検出されそうな物体の寸法及び形状についての非常に詳細な情報を含めることができる。例えば、確率的なデータは、センサーが60%の確率で他の車両を目撃し、20%の確率で金属でない物体を目撃する、等の、区域についての記述を含めることができる。
【0050】
個々のセンサーの初期モデル化にはまた、天候の現在の状態についての情報を活用し、リアルタイムで各センサーモデルの形状及び/又は確率情報を調整することを含めることができる。例えば、天候は、この特定のモデルのセンサー又は別のセンサーから受け取ったデータ、及び/又は、サーバー520のような中央から受け取ったリアルタイム情報に基づき自動的に検出することができる。これに関し、センサー又は中央から天候情報を受け取ることができ、この情報を用いて、センサーの各々について、3Dモデルの形状又は他の特性を調整することができる。例えば、非常に太陽がまぶしい場合又は降雨量が大きい場合、レーザーは、センサーとしての信頼性が下がることがある。同様に、レーダーユニットは、濃霧状態で用いるとき信頼性が下がることがある。このように、この例によるアプローチにより、関連する気象条件(例えば、霧の深さ、雨の量、地面の濡れ具合及び反射の程度、太陽光の強さと方向、等)のパラメータ化したモデルを組み立てることになる。加えて、このような気象条件が異なるセンサーに影響を与える度合いのモデル(例えば、霧の深さの関数としての有効なレーザー到達距離の減少の程度、太陽光の強さと方向の関数としてのレーザー内での盲点の程度、等)を先験的に構築することができ、センサーのオンラインの視野を計算するのに適したモデルを適用することができる。
【0051】
次に、すべてのセンサーの個々のモデルは、センサーが現在監視することのできる、統合された包括的な3次元(3D)モデルとなることができる。この包括的なモデルは、単に、車両が物体を検出することのできる区域と、車両のセンサーが物体を検出できない区域とを示す2値の地図とすることができる。この情報は、個々のモデルに組み込まれた天候情報に含めることができる。
【0052】
例えば、図10は、物体検出要素148の種々のセンサーの2Dセンサー場を統合した1つの例である。この場合もやはり、図10は2Dで示されているが、実際の結合したモデルは3Dである。この実施例において、(車両301に対して)区域1010内の物体は、車両のセンサーにより検出することができる一方、区域1010の外側に位置する物体は検出することができない。
【0053】
個々のモデルに確率データが含まれる場合は、包括的な3Dモデルにも確率データを含めることができる。この点について、結合したモデルは、個々のセンサーモデルからの検出確率を種々の方法で合成することができる。1つの実施例では、3Dモデルの各区域での確率は、個々のセンサーモデルの各々についての各確率を処理して得られた、検出する最大の確率とすることができる。従って、1つのセンサーモデルが、場所1で小型乗用車の大きさの物体を検出する確率が10%であり、他のセンサーモデルが、場所1で小型乗用車の大きさの物体を検出する確率が20%である場合、場所1で小型乗用車の大きさの物体を検出する確率は20%とすることができる。
【0054】
別の例では、前記確率は、確実性のある領域又は閾値を有するような、より複雑な方法で結合することができる。図11は、個々のセンサーについての複数のモデルに基づく包括的な3Dモデル1100の別の実施例である。この実施例において、各モデルの各々には、すでに天候情報を含めておくことができる。包括的な3Dモデル1100には、3つの確実性のある領域、1110、1120、及び1130が含まれる。影で示したように、領域1110は、領域1120(40%と69%との間)より車両の周辺の物体及び外観を検出する確実性を高くすることができる(例えば、70%以上)。同様に、領域1120は領域1130(0%と39%との間)より物体及び外観を検出する確実性を高くすることができる。他の包括的な3Dモデルには、顕著に確実性が高くなったり低くなったりする領域、確実性の値の異なる形式、等を含めることができる。
【0055】
複数のセンサーのこの結合モデルは、センサーから除外され見えない地点を計算するための詳細な地図情報136と結合することもできる。前述のように、詳細な地図情報136は、物体を検出する確率でコード化することができる。例えば、車両の現在の位置を用いて、車両の地理的位置検出要素から決定されたとき、コンピュータ110は、詳細な地図情報136の対応する部分を特定し、前記結合モデルにこの情報を結合することができる。これについて、詳細な地図情報136の形態は、物体を検出する確率を含めて、前記結合モデルを調整するために用いることができる。この結合又は調整の結果を、周辺のさまざまな場所が占有されているか、占有されていないか、又は観測できないか(センサーにより検出できない)を記述した情報について注釈をつけた、車両の周辺のモデルとすることができる。占有されたデータ/自由なデータは、リアルタイムのセンサーデータ(例えば、トラックからセンサーを除外しているモデル)及び事前のデータ(例えば、交差点の近くのビルはすべてのセンサーをブロックする、高い草木はレーザー及びカメラを遮蔽し、レーダーを部分的にブロックするかもしれない、金属製の梁でできた橋又はトンネルは、レーダーを遮蔽するかもしれない、ノイズレベルの高い区域に進む場合は、死角と等価になるであろう)の結合からもたらされるであろう。これらの注釈は、上述の確率データに含めることができる。
【0056】
図12は、地図情報600と包括的な3Dモデル1100との結合の1つの例である。この実施例では、壁572は、区域610と表示され、3Dモデル1100の除外部分となっている。従って、包括的な3Dモデルは、確実性の高い領域1210、1220、及び、1230の確実性の値に応じて、新たな確実性の高い領域1210、1220、及び、1230にそれぞれ再構成される。
【0057】
従って、コンピュータ110は、車両のコンピュータがすでにその周辺を見ることができるか見えないかが予想できるので、センサーデータに基づく周辺の地理を再構成する必要はない。事前に地図を用いることのもう1つの利点は、離れた距離で(該当する物体が検出可能な距離に到達する前に)システムが死角及び遮蔽区域を推定することができ、例えば、システムは、取り付けてあるセンサーが遮蔽の原因となる物体を見つけることができるかなり前に死角となる交差点に近づいていることを知ることができ、これにより、車両は、早い時期に操作を修正し(例えば、スピードを落とし始め)、円滑に安全に運転することができる。
【0058】
結合モデル及び地図は、コンピュータ110により用いられ、それにより運転を定めるので安全性を向上させることができる。例えば、コンピュータは、コンピュータは、検出可能距離が減少した場合(例えば、霧の中を運転している場合)車両のスピードを落とし、車両を視界がよくなるような状態にし、コンピュータが、センサーは十分周辺を検出することができるとの確信を持てない場合は、危険な運転(例えば、対向車線を通り抜ける運転)を避けることができる。
【0059】
図13のフロー線図1300は、コンピュータ110が実行する上述の形態の1つの例である。この実施例において、物体検出要素の複数のセンサーの各々に対し、コンピュータ110は、ブロック1302でセンサーの視野の個々の3Dモデルを生成する。天候情報は、ブロック1304で、例えばセンサーから又はコンピュータ520のような外部情報源から受け取る。天候情報には、例えば、降水量、雲、霧の濃さ、雨の強さ、道路の湿り及び反射度、日差しの強さ及び方向、及び/又は、温度情報を含めることができる。天候情報は、レポート、レーダー情報、予報、リアルタイム計測、等の形とすることができる。コンピュータは、続いて、ブロック1306で、受け取った天候情報に基づいて3Dモデルの1つ以上の特性を調整する。これにより1つ以上のセンサーによる実際の、又は予想される気象条件への影響を明らかにする。この調整の後、ブロック1308で、コンピュータは、3Dモデルを包括的な3Dモデルに統合する。包括的な3Dモデルは次に、ブロック1310で、詳細な地図情報に組み込まれる。上述の通り、これには、車両の現在の位置を決定するステップと、包括的な3Dモデルに組み込むべき詳細な地図情報の該当する部分を選択するためにこの情報を用いるステップとを含めることができる。コンピュータは、次いで、ブロック1312で、結合された包括的な3Dモデルと詳細な地図情報とに基づいて車両の周辺のモデルを計算する。車両の周辺のこのモデルは、次に、ブロック1314で、車両の操作に用いられる。
【0060】
上述の形態のこれらの及び他の変形及び組み合わせは、特許請求の範囲で定義した対象から離れることなく利用することができるので、これまで説明した例示的実施の形態は、特許請求の範囲で定義した発明を限定するものではなく、概説するためにものであると理解すべきである。当然のことながら、ここに記載した実施の形態の条件(及び、「のような」、「例えば」、「含む」、のような語句)は、権利化を要求する対象を特定の実施例に限定するものと解釈すべきでなく、実施例は多くの形態の一部を概説するためのものである。
【産業上の利用可能性】
【0061】
本発明は、これらに限定されるものではないが、自律走行車両の管理及びコントロールを含む、広い産業分野で適用可能である。
【要約】
本願開示の形態は、一般に、車両(101)の周辺の光景のモデル化に関する。この光景には、車両が実際にどんな物体又は形態を見ているのかを含める必要はなく、センサーに遮るものがない場合に車両がそのセンサー(310〜311、320〜323、330〜331)を用いて観測することができる区域を含める必要がある。例えば、物体検出要素(148)の複数のセンサーの各々に対して、コンピュータ(110)は、センサーの視野の個々の3Dモデルを採用することができる。天候情報を受け取り、1つ以上の前記モデル(図13での1304、1306)を調整するために用いる。この調整が終わった後、このモデルを包括的な3Dモデルに統合することができる。この包括的なモデルを、別の場所(図11での1100、図13での1301)で物体を検出する確率を示す詳細な地図情報と結合することができる。車両の周辺のモデルを、結合された包括的な3Dモデルと詳細な地図情報とに基づき計算することができ(図13での1312)、車両の操作に用いることができる(図13での1314)。
【選択図】図13
図1
図2
図3
図4A
図4B
図4C
図4D
図5
図6
図7
図8
図9
図10
図11
図12
図13